home *** CD-ROM | disk | FTP | other *** search
/ Giga Games 1 / Giga Games.iso / net / vir_real / faq / conf / sri_91.rv1 < prev    next >
Encoding:
Text File  |  1991-12-30  |  7.4 KB  |  141 lines

  1. 91-06/SRI.report
  2. From: hlab@milton.u.washington.edu (Human Int. Technology Lab)
  3. Subject: SRI Conference on Virtual Reality, June 1991: Report.
  4. Date: Wed, 26 Jun 1991 22:15:43 GMT
  5. Organization: University of Washington, Seattle
  6.  
  7.  
  8.  
  9. Reposted from The WELL (415-332-6106)    vr   conference, by permission
  10. of Johannes Nicholas Johannsen:
  11.  
  12.  
  13. Topic  75:  Virtual Worlds Conference at SRI
  14. By: Johannes Nicholas Johannsen (jojo) on Wed, Jun 19, '91
  15.  
  16.  
  17.  Anyone go to the SRI conference?  (Virtual Worlds: Real Challenges)
  18.  
  19.  I went, and thought it was great.  Nearly every presentation was by
  20.  someone doing real work in the field (i.e. VR itself or technologies
  21.  that help create a feeling of presence in a virtual world).  There
  22.  was so much covered, and alot I missed because of the parallel sessions.
  23.  
  24.  Anyway, here's a random sampling of a few things I remember:
  25.  
  26.  Mark Bolas sold me on his boom system for entering a visual world, mainly
  27.  because its so easy to enter and leave the world (he compared it to
  28.  using a telephone handset).  The software application developement
  29.  toolkits was interesting, there were only three companies represented,
  30.  Sense8 - complete VR system for $20,000, VPL - complete VR system for
  31.  $250,000, and Autodesk - complete VR system, price unknown, release
  32.  date unknown.  VPL's was the best, which you might have guessed by the
  33.  price.  Sense8 is pretty good if you are a programmer, or think $20k
  34.  isn't all that much (as opposed to $250k).
  35.  
  36.  The presentation I found most interested was a surgeon who is planning
  37.  on doing telepresence (stereo vision) surgery probably fairly soon.  He
  38.  said surgeons have already made the required leap of faith when they
  39.  started doing surgery with a mono-view camera inside the body with
  40.  their mini-surgery tools not directly controlled by their hands.
  41.  Besides being an interesting way to operate, its pretty good for the
  42.  patients -- his example of a gall bladder operation had patients spending
  43.  a week in the hospital with a 6 week recovery with traditional cut-em-open
  44.  surgery, as opposed to a one-day in the hospital and 1 week recovery with
  45.  this mini-video-through-the-hole surgery (he called it laporoscopic surgery).
  46.  Anyway, he seemed to be convinced that stereo view would make these
  47.  operations go alot smoother, since they spend alot of time poking around
  48.  to get a feeling of depth because of the mono view used currently.
  49.  And in case you might be wondering what this has to do with VR (as I was)
  50.  the explanation is that as soon as you have the surgeon viewing screens
  51.  operating tools as seen on the screen, the surgery is already virtual,
  52.  the patient doesn't necessarily have to really exist if the video feedback
  53.  is appropriate.
  54.  
  55. Topic  75:  Virtual Worlds Conference at SRI
  56. #  2: Johannes Nicholas Johannsen (jojo)      Thu, Jun 20, '91  (16:31)      81
  57. lines
  58.  
  59.  Here's some of the other stuff I saw:
  60.  
  61.   - an input device for computers which senses muscle tension, it was
  62.     able to sense eye movement with a small band placed on the forehead,
  63.     and muscle tension anywhere they could strap something which I never
  64.     did see.  Their device also senses brain waves, but they said this
  65.     was only accurate enough to act as a switch rather than being used
  66.     for more sophisticated control.
  67.  
  68.   - TiNi Alloy's tactile output device, which can get small enough to
  69.     put about 40 touch-pixels on the end of your finger.  They had a mouse
  70.     with about 5 of these pixels on the button, so you can feel when you
  71.     move it over certain spots on the screen, and a glove with touch
  72.     pixels on the finger tips which I didn't try.
  73.  
  74.   - the Convolvotron, which uses 300 Mips just to place a sound "out there"
  75.     at a specific place real time.  VPL systems use this.
  76.  
  77.   - lots of stuff related to VR for people with physical disabilities.
  78.     This is fairly relevant since, as in VR, often direct interaction
  79.     with the world is impossible, and technology must be used to bridge
  80.     the gap.
  81.  
  82.   - another surgery presentation, heavy into the aspects of VR simulation
  83.     for training and for future robot controlled surgery.  There's lots of
  84.     advantages of giving up direct control in situations like this, since
  85.     the surgeons aren't limited by their physical size (lots can work together)
  86.     or location (only digital communication required to control robots), and
  87.     altering scale of movement on the robots can simplify tricky situations.
  88.  
  89.   - a robot arm VR for doing something underwater, in which the arm kind of
  90.     pokes around an object until it gets enough data points for a 3-d picture,
  91.     then using the resulting picture and changing the point of view to be
  92.     able to deal with the object, pick it up I guess.  This wasn't stereo,
  93.     but like the surgery, could benefit from depth perception.
  94.  
  95.  The sense8 software keeps looking better, so I placed an order.  Its frame
  96.  rate is decent 7-8 frames for fairly simple worlds on a 25 mhz 486 with
  97.  soon to be obsolete DVI boards (supposedly a faster next generation is out
  98.  soon).  It is entirely possible that the frame rate more than doubles
  99.  within a year.
  100.  
  101.  There were a few interesting things that I learned, such as how the
  102.  our vision gives a seemingly uniform high resolution even though the
  103.  number of photoreceptors in the eye decreases as you move from the
  104.  focal point.  Similarly our sense of touch is processed into a somewhat
  105.  consistent feel from several types of sensors with different distributions
  106.  in the skin.  Another interesting thing was that telepresent people work
  107.  better when software simulations eliminate time delays in their
  108.  teleoperations, even though the software model may not be entirely
  109.  accurate.  It probably works because the simulation is accurate most of
  110.  the time.
  111.  
  112.  The areas I missed were system architecture, data visualizeaion, virtual
  113.  worlds and learning, arts and design.  It was nice to be at a conference
  114.  where I wanted to be two places at once, though unfortunately being a
  115.  somewhat lazy person, often I wasn't even one place at once.  Also, I left
  116.  before the "group-designed world" where the conference participants
  117.  directed the construction of a virtual world.  I left during the future
  118.  issues when the conversation turned to race and gender in VR, bizarre
  119.  agendas strike again.
  120.  
  121.  One thing that almost struck me as strange was the lack of imagination
  122.  in the applications discussed.  For some reason most applications consist
  123.  of physical objects such as boxes, walls, rooms, which represent (surprise)
  124.  boxes, walls, rooms (though the VPL demo did have a magic hat that turned
  125.  into a rose when grabbed).  Visual properties only, and no symbols or data.
  126.  If you drop away the mapping from physical-visible to virtual-visible,
  127.  there is nothing left to see.  There is rarely a physical-invisible to
  128.  virtual-visible mapping, even though the invisible properties may be
  129.  relevant to many applications.
  130.  
  131.  Similarly, visualizing the invisible (as in the "data plane" topic) is
  132.  rarely heard when potential applications are enumerated.  In some ways
  133.  this makes sense given the additional complexity of having an
  134.  information-analysis phase.  On the other hand, there are cases where
  135.  by its nature the information must be structured (as in compiled
  136.  program text) or where the information analysis is not all that
  137.  complicated.  In these cases immersion allows physical location to
  138.  convey information, and specific groupings of information can be shown
  139.  symbolically.  It might sound weird, but no weirder than thinking.
  140.  
  141.